Fechar

1. Identificação
Tipo de ReferênciaTese ou Dissertação (Thesis)
Sitemtc-m21c.sid.inpe.br
Código do Detentorisadg {BR SPINPE} ibi 8JMKD3MGPCW/3DT298S
Identificador8JMKD3MGP3W34R/3R6QKR8
Repositóriosid.inpe.br/mtc-m21c/2018/05.25.12.46
Última Atualização2018:08.10.16.42.05 (UTC) simone
Repositório de Metadadossid.inpe.br/mtc-m21c/2018/05.25.12.46.14
Última Atualização dos Metadados2020:12.07.21.11.45 (UTC) administrator
Chave SecundáriaINPE-18052-TDI/2762
Chave de CitaçãoSouza:2018:AvTéAv
TítuloAvaliação de técnicas avançadas de comunicação MPI na execução do modelo BRAMS
Título AlternativoEvaluation of advanced techniques for MPI communication in the execution of the BRAMS model
CursoCAP-COMP-SESPG-INPE-MCTIC-GOV-BR
Ano2018
Data2018-05-28
Data de Acesso17 maio 2024
Tipo da TeseDissertação (Mestrado em Computação Aplicada)
Tipo SecundárioTDI
Número de Páginas108
Número de Arquivos1
Tamanho2629 KiB
2. Contextualização
AutorSouza, Carlos Renato de
BancaMendes, Celso Luiz (presidente)
Stephany, Stephan (orientador)
Panetta, Jairo (orientador)
Campos Velho, Haroldo Fraga de
Fazenda, Álvaro Luiz
Endereço de e-Mailcarlos.renato.souza@gmail.com
UniversidadeInstituto Nacional de Pesquisas Espaciais (INPE)
CidadeSão José dos Campos
Histórico (UTC)2018-05-25 12:46:44 :: carlos.renato.souza@gmail.com -> administrator ::
2018-06-04 01:52:27 :: administrator -> pubtc@inpe.br ::
2018-06-15 12:15:16 :: pubtc@inpe.br -> carlos.renato.souza@gmail.com ::
2018-07-03 17:08:48 :: carlos.renato.souza@gmail.com -> administrator ::
2018-07-16 12:58:49 :: administrator -> pubtc@inpe.br ::
2018-07-19 12:20:51 :: pubtc@inpe.br -> administrator ::
2018-08-10 12:51:47 :: administrator -> simone ::
2018-08-10 17:49:20 :: simone :: -> 2018
2018-08-10 17:49:20 :: simone -> administrator :: 2018
2020-12-07 21:11:45 :: administrator -> simone :: 2018
3. Conteúdo e estrutura
É a matriz ou uma cópia?é a matriz
Estágio do Conteúdoconcluido
Transferível1
Palavras-ChaveBRMAS
shared memory
modelo numérico de previsão
MPI
numerical model forecast
ResumoO Centro de Previsão de Tempo e Estudos Climáticos (CPTEC) do Instituto Nacional de Pesquisas Espaciais (INPE) executa operacionalmente modelos numéricos de previsão de tempo e clima. Em particular, utiliza o modelo regional BRAMS (Brazilian developments on the Regional Atmospheric Modeling System). Esse modelo foi paralelizado com a biblioteca de comunicação por troca de mensagens Message Passing Interface (MPI) e é executado no supercomputador Tupã do CPTEC, o qual é composto de mais de um milhar de nós de processamento. Cada nó possui dois processadores multinúcleos numa arquitetura de memória compartilhada. Na execução paralela do modelo BRAMS, seu domínio de cálculo é dividido em subdomínios entre processos executados nos núcleos dos muitos nós. Eventuais dependências de dados entre subdomínios diferentes implicam na troca de mensagens MPI entre processos sejam eles do mesmo nó ou não. O BRAMS utiliza troca de mensagens MPI bilateral no modo assíncrono e sem bloqueio, disponível desde a primeira versão do padrão MPI. O padrão MPI tem evoluído, oferecendo novas técnicas para otimizar a comunicação entre processos. Assim, visando otimizar o desempenho da comunicação, o padrão MPI-2 introduziu a chamada comunicação unilateral por acesso remoto à memória, que permite a um processo pode fazer leituras ou escritas por meio de funções MPI na memória de outro, seja do mesmo nó ou não, permitindo a troca de dados entre processos, sem que o processo alvo participe da comunicação explicitamente. A comunicação unilateral foi aperfeiçoada no MPI-3, mas uma nova funcionalidade foi introduzida, a comunicação unilateral por memória compartilhada, que permite a processos MPI executados num mesmo nó definirem uma janela comum de memória local e efetuar leituras e escritas diretas na área da janela de outros processos locais. Este trabalho visa avaliar o desempenho da execução paralela do modelo regional BRAMS ao utilizar a comunicação unilateral de memória compartilhada na comunicação intra-nó e mantendo a comunicação bilateral assíncrona e sem bloqueio na comunicação inter-nó e preservando a mesma divisão de domínio de sua versão paralela original. ABSTRACT: The Center for Weather Forecasts and Climate Studies (CPTEC) of the Brazilian National Institute for Space Research (INPE) executes several climate and weather numerical forecast models on an operational basis, specifically using the regional model nominated BRAMS (Brazilian developments on the Regional Atmospheric Modeling System). This model was parallelized using the Message Passing Interface (MPI) communication library, being executed by the CPTECs "Tupã", a supercomputer composed of hundreds of processing nodes. Each node has two multi-core processors in a shared memory architecture. In the paralell execution of BRAMS, its calculation domain is divided among processes executed in the cores of the many nodes. Data dependencies between different subdomains require the exchange of MPI messages between the processes, either intra-node or inter-node. BRAMS employs asynchronous non-blocking point-to-point communication, available since the first version of the MPI standard. The MPI standard has evolved through the years bringing new techniques to optimize the communication between processes. Thus MPI-2 introduced the one-sided communication by remote memory access. It allows a process to execute reads or writes using MPI functions to the memory of other process, either in the same node or not, exchanging data betweem processes without the explicit cooperation of the target process. One-sided communication was improved in the MPI-3 standard, but a new technique was added, the shared memory one-sided communication. MPI processes executed in the same computational node may define a common shared memory window and execute direct reads and writes in the window part of another process. The purpose of this work is to evaluate the parallel performance of the BRAMS model using the shared memory one-sided communication for the intra-node communication while keeping the asynchronous non-blocking point-topoint inter-node communication, and preserving the domain decomposition of its original parallel version.
ÁreaCOMP
Arranjourlib.net > BDMCI > Fonds > Produção pgr ATUAIS > CAP > Avaliação de técnicas...
Conteúdo da Pasta docacessar
Conteúdo da Pasta source
001-20.pdf 10/08/2018 09:56 470.2 KiB 
@4primeirasPaginas (1).pdf 10/08/2018 09:56 196.2 KiB 
Dissertacao_mestrado_Carlos_Renato_AGORAVAI.pdf 10/08/2018 09:56 2.0 MiB
Conteúdo da Pasta agreement
autorizacao.pdf 10/08/2018 09:55 1019.6 KiB 
4. Condições de acesso e uso
URL dos dadoshttp://urlib.net/ibi/8JMKD3MGP3W34R/3R6QKR8
URL dos dados zipadoshttp://urlib.net/zip/8JMKD3MGP3W34R/3R6QKR8
Idiomapt
Arquivo Alvopublicacao.pdf
Grupo de Usuárioscarlos.renato.souza@gmail.com
gabinete@inpe.br
pubtc@inpe.br
Grupo de Leitoresadministrator
carlos.renato.souza@gmail.com
gabinete@inpe.br
pubtc@inpe.br
yolanda.souza@mcti.gov.br
Visibilidadeshown
Licença de Direitos Autoraisurlib.net/www/2012/11.12.15.10
Permissão de Leituraallow from all
Permissão de Atualizaçãonão transferida
5. Fontes relacionadas
Repositório Espelhourlib.net/www/2017/11.22.19.04.03
Unidades Imediatamente Superiores8JMKD3MGPCW/3F2PHGS
Lista de Itens Citandosid.inpe.br/bibdigital/2013/10.12.22.16 1
DivulgaçãoBNDEPOSITOLEGAL
Acervo Hospedeirourlib.net/www/2017/11.22.19.04
6. Notas
Campos Vaziosacademicdepartment affiliation archivingpolicy archivist callnumber contenttype copyholder creatorhistory descriptionlevel doi electronicmailaddress format group isbn issn label lineage mark nextedition notes number orcid parameterlist parentrepositories previousedition previouslowerunit progress resumeid rightsholder schedulinginformation secondarydate secondarymark session shorttitle sponsor subject tertiarymark tertiarytype url versiontype
7. Controle da descrição
e-Mail (login)simone
atualizar 


Fechar